early stopping [Aiffel] 아이펠 24일차 개념 정리 및 회고 1) 텍스트 요약 문서 원문의 핵심 주제를 추출해 짧은 요약 문자으로 변환하는 것 요약 후 정보 손실을 최소화해야 함 = 정보를 압축하는 과정 추출적 요약 원문에서 문장을 추출해서 사용 머신러닝 방식 중 텍스트 랭크 알고리즘을 사용함 문장 분류에 해당 예) 네이버 뉴스 요약봇 추상적 요약 원문을 기반으로 요약된 내용을 담고 있는 새로운 문장을 생성 RNN 활용 가능 자연어 생성 영역 RNN의... RNN아이펠early stopping딥러닝Seq2Seq추출적 요약추상적 요약국비교육파이썬RNN [ML] Boosting Model 1. Boosting Model 랜덤포레스트의 경우 각 트리를 독립적으로 만들지만, 부스팅은 만들어지는 트리가 이전에 만들어진 트리의 영향을 받습니다. AdaBoost의 경우 트리를 만들 때 잘못 분류되는 관측치에 가중치를 주어 다음 트리에서 해당 오류를 더 잘 신경 쓸 수 있도록 합니다. Gradient boost는 처음 예측값에서 더 나은 예측을 할 수 있도록 잔차를 학습하여 이전의 예측... Adaboostearly stoppinggradientXGBoostAdaboost
[Aiffel] 아이펠 24일차 개념 정리 및 회고 1) 텍스트 요약 문서 원문의 핵심 주제를 추출해 짧은 요약 문자으로 변환하는 것 요약 후 정보 손실을 최소화해야 함 = 정보를 압축하는 과정 추출적 요약 원문에서 문장을 추출해서 사용 머신러닝 방식 중 텍스트 랭크 알고리즘을 사용함 문장 분류에 해당 예) 네이버 뉴스 요약봇 추상적 요약 원문을 기반으로 요약된 내용을 담고 있는 새로운 문장을 생성 RNN 활용 가능 자연어 생성 영역 RNN의... RNN아이펠early stopping딥러닝Seq2Seq추출적 요약추상적 요약국비교육파이썬RNN [ML] Boosting Model 1. Boosting Model 랜덤포레스트의 경우 각 트리를 독립적으로 만들지만, 부스팅은 만들어지는 트리가 이전에 만들어진 트리의 영향을 받습니다. AdaBoost의 경우 트리를 만들 때 잘못 분류되는 관측치에 가중치를 주어 다음 트리에서 해당 오류를 더 잘 신경 쓸 수 있도록 합니다. Gradient boost는 처음 예측값에서 더 나은 예측을 할 수 있도록 잔차를 학습하여 이전의 예측... Adaboostearly stoppinggradientXGBoostAdaboost